in
AI उत्पाद रैंकिंग
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
होम
AI समाचार
AI दैनिक
मुद्रीकरण गाइड
AI ट्यूटोरियल
AI उपकरण नेविगेशन
AI उत्पाद लाइब्रेरी
in
AI उत्पाद रैंकिंग
वैश्विक AI उत्पाद गतिशीलता खोजें
वैश्विक AI जानकारी खोजें, AI में नए अवसर खोजें
समाचार जानकारी
उत्पाद अनुप्रयोग
मुद्रीकरण मामले
AI ट्यूटोरियल
प्रकार :
समाचार जानकारी
उत्पाद अनुप्रयोग
मुद्रीकरण मामले
AI ट्यूटोरियल
2024-08-09 09:21:21
.
AIbase
.
10.9k
वकील का कहना है कि अमेरिका का साइबर सुरक्षा कानून बहुत अस्पष्ट है, जो AI सुरक्षा शोधकर्ताओं की रक्षा नहीं कर सकता
वर्तमान में, खासकर बड़े भाषा मॉडलों (LLMs) का विकास साइबर सुरक्षा कानूनों पर ध्यान आकर्षित कर रहा है। हार्वर्ड विश्वविद्यालय के विद्वान ने ब्लैक हैट सम्मेलन में कहा कि अमेरिका का कंप्यूटर धोखाधड़ी और दुरुपयोग कानून (CFAA) AI सुरक्षा शोधकर्ताओं को प्रभावी रूप से सुरक्षित नहीं कर रहा है, जिससे वे कानूनी जोखिमों का सामना कर सकते हैं। विद्वानों ने बताया कि मौजूदा कानून "प्रॉम्प्ट इंजेक्शन हमले" जैसे कार्यों की परिभाषा में अस्पष्टता है, जिससे शोधकर्ताओं को कार्य की वैधता का निर्णय करना कठिन हो जाता है। 2021 में उच्चतम न्यायालय के फैसले ने CFAA के अनुप्रयोग को सीमित कर दिया, लेकिन AI इंटरैक्शन की विशिष्टता इसे और अधिक जटिल बना देती है। AI सुरक्षा
2024-07-30 09:32:25
.
AIbase
.
10.7k
अजीब! मेटा का AI सुरक्षा प्रणाली 'स्पेस' हमले से आसानी से बाईपास हो गया
मेटा द्वारा प्रकाशित Prompt-Guard-86M मॉडल प्रॉम्प्ट इंजेक्शन हमलों के खिलाफ रक्षा का लक्ष्य रखता है, बड़े भाषा मॉडल के अनुपयुक्त इनपुट को संभालने में सीमित करना, प्रणाली की सुरक्षा की रक्षा करना। हालाँकि, यह मॉडल खुद भी हमले के जोखिम को उजागर करता है। अमन प्रियंशु के शोध में पाया गया है कि, इनपुट में स्पेस जैसे सरल वर्ण विभाजन जोड़ने या विराम चिह्नों को हटाने के माध्यम से, मॉडल पूर्व की सुरक्षा निर्देशों को अनदेखा कर देता है, हमले की सफलता दर लगभग 100% है। यह खोज AI सुरक्षा के महत्व को उजागर करती है, हालाँकि प्रॉम्प्ट